Hadoop
启动hdfs集群:
1
start-dfs.sh
验证启动是否成功:jps、50070端口
spark1:namenode、datanode、secondarynamenode
spark2:datanode
spark3:datanode
YARN
1 | /usr/local/hadoop/sbin/start-yarn.sh |
Hive
在spark1中,直接输入:1
hive
ZooKeeper
分别在三台机器上执行:
1
zkServer.sh start
检查ZooKeeper状态:
1
zkServer.sh status
kafka
在三台机器上分别执行以下命令:
1
cd /usr/local/kafka/
执行
1
nohup bin/kafka-server-start.sh config/server.properties &
Spark
在spark目录下的sbin目录
1
cd /usr/local/spark/sbin
执行
1
./start-all.sh
使用jsp和8080端口可以检查集群是否启动成功
- 进入spark-shell查看是否正常